郑曦 顾佳浩 | 人工智能量刑的制度困境与完善路径
郑曦
顾佳浩
作者简介:郑曦,博士,北京外国语大学法学院教授、硕士研究生导师;顾佳浩,北京外国语大学法学院硕士研究生。
摘要:在量刑中运用人工智能技术对于法院提高诉讼效率有显著作用,因此中外法院的人工智能量刑实践已不鲜见。人工智能量刑存在技术障碍和法律风险,可能冲击公正价值,影响法官自由心证,侵害当事人权利。应客观看待人工智能量刑的技术局限和价值追求,妥善处理人工智能与法官量刑权的关系,严格保障被告人的正当程序权利,并适当兼顾当事人隐私权和个人信息权,从而实现人工智能技术在量刑中的合理运用,消解其负面影响,发挥科技推动法治发展的积极作用。
关键词:人工智能;量刑;法官量刑权;权利保护
基金项目:国家社会科学基金青年项目“个人信息保护视域下的刑事诉讼领域被遗忘权研究”(19CFX032)
原文目录
一、引言
二、人工智能量刑的司法实践
三、人工智能量刑的障碍与风险
四、人工智能量刑的合理运用
五、结语
一、引 言
人工智能“忽如一夜春风来”般地在司法领域成了高频热搜词,运用人工智能技术似乎成了一种潮流甚至时尚,许多国家和地区的法院都对司法智能化的议题充满热忱。
所谓人工智能,其核心内容一是令机器做人类所能做之事,甚至比人类做得更好,二是令机器理解由人类或机器甚至其他动物做出的智能化行为,然而当前司法实践领域所运用的“人工智能”技术是否能够实现这两方面的内容尚值得研究。
即便其达到此种智能化水平,运用人工智能技术也会给司法裁判带来一系列难题,特别是当其被用于刑事案件的量刑时,不但影响法官行使裁判权,更直接关系到被告人的生命、自由、财产等最重要法益,岂可不慎?
面对人工智能量刑给原有的刑事司法制度带来的冲击和挑战,虽不必抵触抗拒,却需细致考虑人工智能量刑是否能实现目的与效果的同一、是否存在技术障碍和法律风险等具体问题,从而依照司法的基本规律和原则规制人工智能量刑,实现对司法公正、权利保障等核心价值的正向保障。
二、人工智能量刑的司法实践
在刑事量刑中引入人工智能的直接目的在于应对案件积压问题,并以人工智能技术的选择性替代和智能优化帮助法官及时地定纷止争,以提升司法实践的效率和便捷性。而在美国卢米斯诉威斯康星州案中,法院对于借助人工智能技术进行量刑采取了谨慎保守的态度。
该案的核心在于法院在量刑时使用的一种基于证据的风险评估工具COMPAS是否侵犯了被告人享有正当程序的权利。州法院认为,在决定适用刑罚时应该使用COMPAS的报告,主要基于以下三个主要因素:犯罪的严重性、犯罪的性质和保护公众的需要。然而,法院对于评估如何分析风险的信息掌握有限,无法满足COMPAS的适用前提。
此外,卢米斯指出,法院在判决时使用COMPAS风险评估,侵犯了被告的正当程序权利,理由有三:第一,非基于准确信息判处刑罚,剥夺了被告的正当权利,此与风险评估工具的专营性不无关系;第二,巡回法院对COMPAS风险评估的考虑,相当于根据群体数据作出判决,而不是根据指控和被告的独特性格作出个别判决,侵犯被告获得个别化量刑的权利;第三,在量刑中不当使用性别评估,严重违反了被告不以性别为基础进行判刑的正当程序权利。
尽管如此,法院在最终的裁判结论中仍然坚持认为量刑时对COMPAS风险评估的考虑不会侵犯被告的正当程序权利。该案的判决引发了许多争议,有学者认为:一方面,人工智能在量刑中的运用仍可能侵犯被告知情、不受偏见、有效辩护、平等对抗等权利;另一方面,人工智能在使司法高效便捷的同时,也再次敲响了司法裁判保障被告人宪法性权利、呵护公平正义的警音。
我国法院在量刑中积极运用人工智能技术。2017年,上海高院研发了一套智能辅助办案系统,又名“206系统”。作为一套推进以审判为中心的诉讼制度改革软件,“206系统”吸取了以往重大冤假错案中普遍存在的事实不清、证据不足等教训,既能解决刑事案件证据标准适用不统一、办案程序不规范等问题,又可充分发挥系统自身的校验、把关和监督功能,确保证据链的印证和各诉讼阶段的程序合规,提升办案质量,减少司法任意性。
此外,随着“智慧法院”和互联网法院的逐步建成,各地的人工智能办案辅助工具亦纷纷涌现。例如北京的“睿法官”、江苏的“法务云”、河北的“智审”、重庆的“法治云”等。
在文书导出、证据相似情况案件推送、办案程序监督、社会危险性审查、检查监督、量刑建议参考乃至未来的证据校验、非法言词证据排除等司法实践中,都离不开人工智能的辅助。我国积极开发和运用人工智能办案辅助系统,不论在推进案件繁简分流、提高审判效率方面,还是在帮助法官采信证据、促进裁判公平正义方面,人工智能都具有举足轻重的作用。
尽管如此,此前早就有学者指出,电脑量刑固然能在很大程度上排除在行使自由裁量权方面的主观任意性,同时也会排除诸如自然法、人权保障、“有耻且格”、预防为主之类的思辨性要素,还倾向于排除对各种不同利益进行权衡、考量等的政策性调整机制。因此,对于人工智能取代人类司法职能的固有风险须予以警惕。
值得注意的是,上述智能辅助办案系统、“智慧法院”和互联网法院建设等概念是人工智能在司法中的具体表现,两者是一般与个别、抽象与具象的关系,而人工智能量刑又是前述概念在量刑方面的具体运用,两者是整体与部分、系统与要素的关系。
因此,只有在对人工智能量刑的内涵和外延合理界定的基础上,才能更精准地把握人工智能在司法运用中的脉络和初衷。
人工智能量刑的目的在于:
其一,公正是人工智能量刑的根本追求。通过人工智能办案辅助系统的类案推送等功能,法官可以有效对比个案事实下的证据链完整度和印证情况,并酌情考量人工智能提供的类案情况下相似的量刑参考依据,从而解决实践中普遍存在的“同案不同判”情形,最终促进和增强司法裁判的公正性和社会可接受性。
其二,效率是人工智能量刑的首要着眼点。随着“以数据为中心的人民法院信息化3.0版本”的智慧型法院时代的到来,加之司法实践中“案多人少”的矛盾日益凸显,法院在内生动力和外生动力的共同作用下,尤需借助人工智能的办案辅助功能来处理法官在审理案件前和裁判过程中的技术性操作活动,从而节省更多的时间和精力来进行审判中心环节的自由裁量,并实施更加精准的量刑推算,最终达到相同时间下处理更多、更高质量的案件纠纷之目的,有效缓和人案矛盾。
然而,从司法实践的实际效果来看,良善的初衷并非能够顺利地如愿以偿。如同前述卢米斯案所示,一方面,COMPAS工具确然在帮助法官评估被告的量刑和人身危险性方面具有一定的科学性、便捷性和可操作性,从而在一定程度上提高了法官作出司法判决的效率。
但在另一方面,正是由于技术尚欠成熟的人工智能风险评估工具在裁判量刑中的使用而引发了新一轮的诉讼,从诉讼过程整体的周期和损耗的人力、物力、财力来看,又损害了案件争议解决的效率。
此外,人工智能量刑技术背后的算法不公开、采样不均衡、偏见性植入等因素,都会直接或间接地影响被告人辩护权的有效实现,乃至克减其宪法性权利,并容易致使法官忽略个案中的特殊性,仅仅根据人工智能推送的一般大数据样本草率定论,最终有损实质意义上的公平正义。
在我国对人工智能量刑推崇备至的当下,更是容易催生出唯“人工智能”是瞻的反客为主现象,颠倒法官裁判是主、人工智能是辅的职能配置关系。因此,面对人工智能量刑在应然目标和实然走向之间的鸿沟,我们尤其要警惕当前人工智能量刑的技术障碍与法律风险。
三、人工智能量刑的障碍与风险
透视当前司法实践中的人工智能量刑现状,可发现其背后的技术障碍和法律风险。这些障碍和风险会对法官的审判权和当事人的合法权利等产生重大影响。因此,有必要对此进行深入分析,并对人工智能技术在量刑领域的研发与运用持更加审慎的态度。
(一)人工智能量刑的技术障碍
首先,人工智能量刑存在“低智能”障碍。人工智能技术已经驶入快车道,但这并不意味着其足以与人类理性头脑等同并驱,乃至取代法官的裁判量刑职能,并与之相提并论。
相反,当前的人工智能在很多方面仍然表现为“低智能”,而这种人工“低智能”量刑或将造成的错误判决不仅反映着自身技术意义上的不完全可靠,它还意味着以公民的生命、自由、财产、隐私等重要法益为代价,影响量刑裁判本身的公平正义。
正如有学者指出,司法大数据和人工智能开发还存在图谱构建、情节提取、模型训练等技术性障碍,应当冷静反思当前过热的司法技术主义热潮。
具体而言,第一,从法律知识图谱的构建来看,人工智能办案辅助系统尚不足以涵盖所有的法律案件类型。尽管人工智能可以通过深度学习将但凡可获取的案件都纳入自己的数据库中,但是,案件类型纷繁复杂,实在难以穷尽式地学习,而且目前尚有许多裁判文书不上网,因而并没有进入人工智能深度学习的视野之中。
第二,从法律语言的情节提取来看,由于文义表达的多样性,人工智能不熟悉法律语言的一词多义表达习惯,往往会在案件情节检索过程中发生遗漏。例如犯罪嫌疑人、被告人认罪认罚,除了“认罪”“认罚”等字眼表述,还可以有“主动供述”“接受刑罚”“达成协议”“签署具结书”等陈述方式,而人工智能目前尚难以自动在这些词语之间架起关联。
第三,从司法人工智能的既有模拟训练来看,其能够正确辅助司法量刑的前提在于样本文书的实质正确。即使人工智能可以对当前所有的样本文书进行穷尽式学习,但由于冤假错案样本文书的必然存在,而人工智能只能进行机械式的输入和输出,无法对样本文书自身的正确与否采取价值上的考量和判断。既然其无法做到对错案的识别,那么在类案推送的情况下,就极有可能酿成“复使旧冤造新冤”的局面。
其次,人工智能量刑存在封闭性和秘密性的不足。人工智能工具虽被赋予“办案辅助系统”之定位,但在实际的司法操作过程中,由于算法“暗箱”的存在,往往难以同法官的审判职能进行分工疏离。
具言之,第一,人工智能量刑具有不公开的特点。由于人工智能量刑的技术研发往往都被外包给专业的科技公司来完成,因而自身具有专营性,涉及各个科技公司的商业秘密,其背后所代表的商业利益和专利权直接决定了算法公开的不可行性。而人工智能量刑技术研发所依赖的算法代码如同司法制度中现存的“二元副卷”、庭审评议、审委会审判等制度悖论一样,但凡不经法定的公开和监督,那么借以作出的量刑裁判的可接受性就势必会受到质疑,最终损害司法权威和裁判的公平正义。
第二,裁判的不公开性可能衍生出科技公司在商业利益驱使下对法官的欺骗性。既然人工智能量刑的算法代码不能被公之于众,甚至连法官自己也无从知晓,那么类案推送和量刑的依据又是什么?如若不能打开这一“黑匣子”,法官又何以能作出令人信服的量刑裁判?甚至有理由怀疑,人工智能量刑只是一个巧立名目的商业幌子,科技公司极有可能只是为了包装自己的人工智能产品而造了个噱头,最终蒙蔽了法官的眼睛,也扭曲了民众心目中正义的天平。
最后,人工智能量刑存在群体数据缺陷。大数据和算法是人工智能得以运用于裁判量刑的逻辑前提,而算法的基础是数据,基于错误的或者不准确的数据,进行算法决策,得出的结论自然是错误的、有偏差的,因而采样的范围和方法直接决定了人工智能量刑的质量和效果。
质言之,一旦人工智能办案辅助系统的数据库中充斥着带有伦理性、制度性偏见的样本,那么对于法官来说,其一,在依靠人工智能进行量刑裁判的过程中,势必会受到数据库中预采样本的影响,从而偏离对本案被告的个别化判断,相当于通过数据样本的选择架空了个案裁量,间接剥夺了法官的专属定罪量刑权。其二,对于被告人来说,根据群体数据而非根据指控和被告的独特性作出个别化的量刑判决,极有可能会产生潜在的误解。
例如,一个从未有过暴力犯罪的人,仅仅因为人工智能工具依据一般群体特征所得出的结论,认定该被告的人格特质具有暴力犯罪的高度人身危险性,忽略该案被告人所在案件的特殊性、案情的复杂性、证据的多样性等因素,就会造成对被告人量刑裁判的实质性不公,客观上强令其为多数人之“恶”埋单。
因此,从这个角度来看,法官对被告作出量刑裁判仍需倚仗控辩双方向法庭提供更加完整的信息,人工智能量刑在尚未克服其群体数据这一缺陷之前,只是作为一个必要但不充分的判断要素存在。
(二)人工智能量刑的法律风险
首先,人工智能量刑会冲击公正价值。法院一方面积极地卷入追求人工智能的司法狂热,享受人工智能量刑带来的智能便捷,另一方面恰因这种狂热而愈发陷入对高效司法的片面追求之中,因而量刑裁判的公正价值正面临来自效率价值的风险冲击,增加了审判的不确定性。
除此之外,更值得警惕的是,人工智能内含的算法代码本身就可能损害公正。尽管算法是一套客观独立出来的规则程式,但其在诞生之初不免带有代码设计者的主观价值预断,而这种主观预断所衍生出来的或隐或显的偏见或歧视,一旦加入特定人工智能程序而运用于量刑判断,则可能在运用此种模式化程序大大加快案件审理进程的同时导致对实体公正的损害,甚至导致错误裁判,最终影响司法权威。
其次,人工智能量刑会影响法官的自由心证。其一,量刑是一个由法官来动态权衡的过程,包含大量的逻辑推导和论证说理等思维过程。但是,一旦将量刑的重任呈交给机器,那么,人工智能量刑势必会走向机械化,其模式类似于中世纪的法定证据制度。因而,法官在进行心证的过程中,难免会受到机器刻度化量刑的影响,进而向这一机械式结果靠拢。
其二,虽然人工智能办案辅助系统是一个没有感情的机器,但是程序员在编写算法代码的过程中,难免会植入自身的情感、伦理、价值观等主观因素,进而在某种程度上形成一种偏见,而这种偏见会影响乃至取代法官的心证判断,最终造成附着在算法代码上的第三方偏见僭越法官的专属审判权。
其三,对于被告人来说,可能受到二次伤害。其量刑要先受到来自算法代码的偏见审视,后经法官有意无意的裁断肯认,使得先前的歧视得到巩固,进而以算法决策的方式损害规则适用的公正性,最终甚至扩大刑事司法的不公正。
其四,由于法院不具备研发人工智能量刑工具的能力,因此在实践中只能采取大量外包的做法,由科技公司或程序员来负责研发并投入使用,至此便产生了机器量刑和法官量刑之间的博弈,甚至法官心证所受人工智能的影响只能是单向性的,既使得人工智能量刑的影响力更胜一筹,亦造成法官无法对电脑量刑采取有效的监督。
最后,人工智能量刑会减损当事人的诉讼权利、隐私权和个人信息权。算法“黑匣子”的存在使得法官成为了一个“强横”的裁判者,特别是在法官自己也无从知晓人工智能算法为何的情形下,保障被告人的知情权更是天方夜谭。一旦被告人无从得知人工智能量刑的计算和判别依据,那么被告的不知情将会直接导致辩方无法进行有效的辩护,进而庭审的控辩审三角结构发生失衡,最终损害被告人的一系列诉讼权利,乃至影响量刑裁判的公平正义和可接受性。
此外,对于被人工智能量刑工具收集个人信息的被告人而言,还存在着隐私权和信息权被侵犯的隐患。隐私强调的是一种私生活的安宁,而个人信息更强调姓名、身份证、住址等身份信息的可供识别,此为根据两者不同的请求权基础而作二元划分。
因此,人工智能量刑工具在司法适用的过程中,既有可能因为搜集并使用先前案件被告人的身份信息而侵犯其个人信息权,亦有可能因为检索到的案件情节、内容涉及个人私生活而侵犯其隐私权,尤其发生在当前被告人不存在对涉刑案件所搜集的个人信息主张救济权利的情况之下。
四、人工智能量刑的合理运用
人工智能用于量刑,和其他任何科技手段运用于司法一样,必然会对既有的司法制度造成影响。针对上文所述的问题和挑战,可以就客观地看待人工智能量刑的技术局限和价值追求,妥善处理人工智能与法官量刑权的关系,严格保障被告人的正当程序权利,适当兼顾当事人隐私权和个人信息权等几方面着手进行解决。
(一)客观看待人工智能量刑的技术局限和价值追求
在科技快速发展的今天,人工智能等新技术运用于量刑等刑事司法活动,从某种意义上看是一种必然趋势,如果运用得当则能够帮助法官作出迅速、准确的量刑。因此,在量刑的问题上大可不必“闭关自守”而排斥人工智能等新技术的使用。但是另一方面,当前的人工智能技术毕竟处在“低智能”“弱智能”的发展阶段,甚至有一些“伪智能”产品充斥其中。
此外,人工智能技术的开发与其他任何科学技术的发展一样,是以一定的错误率或失败率为代价的,但是如上文所述,刑事案件的量刑直接涉及被告人的生命、自由、财产等最重要法益,也关系到刑事司法能否守住“社会公平正义的最后一道防线”,而司法制度是无法承受与科技开发一样的错误率和失败率的。
因此,对于人工智能量刑仍应保持审慎的态度,在运用人工智能量刑时,不但要认真甄别不同产品的智能化程度,而且应谨慎选择经过严格科学检验且技术成熟的人工智能产品。
在确保用于量刑的人工智能产品技术层面的可靠性之外,在运用人工智能量刑的价值取向上,除了承认其具有提高司法效率的功利性价值之外,更需强调对于保障司法公正和保护公民权利的追求。公正是司法的生命线,是司法制度存在的根本正当性基础。对于刑事司法而言,公正永远是高于效率的第一价值,即便是以追求司法效率为驱动力的人工智能量刑也不能违背“公正优先、兼顾效率”的司法原理。
倘若在个案的量刑中运用人工智能技术可能导致对司法公正的威胁,特别是可能导致实体方面显失公正的错误量刑或者程序方面的严重违法时,则应毫不吝惜地放弃人工智能的运用。而对司法公正的追求必然要求“尊重和保障人权”,因为对公民权利的保护程度已经是现代法治国家判断司法公正是否得以实现的重要标杆,这在刑事量刑中亦不例外。
当以具备普遍性、非人格性为特征之形式合理性品格的人工智能技术运用于量刑时,可能因其技术特征和品性导致与人权保障的要求发生冲突,从而出现上文所述对当事人的正当程序权利和隐私权或个人信息权利的影响。当此种情形出现时,应当“以保护人的权利和福祉为其伦理基础”,运用价值位阶分析法,优先保障当事人的高位阶诉讼权利,从而消解人工智能量刑引发的工具理性与价值理性的冲突。
(二)妥善处理人工智能与法官量刑权的关系
针对上文所述的在刑事案件量刑中运用人工智能技术给法官量刑权带来的影响,可以从明确人工智能技术在量刑中的职司、适度分离技术人员与司法人员、强调法官的裁判权责和贯彻“以审判为中心”的司法改革目标进而依法采纳量刑证据四个方面着手加以解决。
首先,人工智能运用于量刑应被明确定位为辅助工具。当前,人工智能技术的低智能化现状使得由人工智能替代法官量刑在技术上不可行,但退一步而言,即便日后人工智能技术取得了重大突破,实现了对人类智能化行为的模仿和理解,但由于其固有的去情感化特征,也无法胜任量刑工作中的情感投入、价值权衡。
因此,“人的纠纷只能由人来解决”,量刑中,人工智能只能扮演辅助工具的角色,主要从事信息收集、数据分析、类案推送的工作,至多允许其提出量刑建议供法官参考,而不得使其主导量刑。
其次,在运用人工智能量刑过程中,技术人员与司法要有适度的职司分离。为防止技术人员将其特定利益或观念加入人工智能量刑工具中,或者技术人员与司法人员交往过密导致职能混淆或利益交换,应在二者之间划定职司界限。
技术人员的工作应限定于人工智能量刑工具的研发、维护和修缮等方面,而不得介入具体案件的量刑;法官在量刑中使用人工智能工具遇到技术障碍时可以就技术问题求助于技术人员,但应按照特定的程序进行,例如通过法院后勤保障或审判管理部门统一协调安排,一般情况下不宜由法官直接接触技术人员,从而对二者之间的交往形成一定程度的阻断和监管。
再次,强调法官针对量刑问题之主导权和司法责任。党的十八届三中全会要求贯彻落实“让审理者裁判、由裁判者负责”的司法责任制,其核心在于实现裁判者的权责统一。在量刑问题上也需要强调此种权责一致,厘清主体与工具的权责关系。
一方面,作为裁判者的法官必须对量刑有主导的权力,且其量刑裁判权具有最终性,作为量刑辅助工具,人工智能的运用不得侵犯此种法官的主导权;另一方面,法官必须对其量刑裁判承担相应的司法责任,即一旦发生错误裁判,法官应按照司法责任制的要求受到追责,其量刑裁判是否依据人工智能工具之量刑建议作出,不能成为其推卸责任之借口。
最后,应进一步贯彻“以审判为中心”的司法改革目标,依法采纳量刑证据。党的十八届四中全会提出推进“以审判为中心”的司法改革,其核心内容在于强化审判权在司法权力配置和运行中的核心地位,从而理顺侦查权、起诉权和审判权的关系。
在刑事案件量刑中,人工智能技术的运用也需要以此目标作为基点,在公检法信息化系统逐步走向互联互通的现实下,人工智能工具会从公检法系统中获得相关数据,其中的一些数据未必具有刑事诉讼法所规定的审判阶段作为定案依据的证据能力,在我国定罪和量刑程序合一的现实前提下,不应作为量刑的依据。
因此,运用人工智能辅助量刑时所运用的证据,仍需按照“以审判为中心”的要求,遵循审判的证据运用规则加以审查判断,保证证据的合法性。
(三)严格保障被告人的正当程序权利
为避免人工智能量刑给被告人权利带来过度的负面影响,从严格保障公民正当程序权利的思路出发,可以针对以下三方面问题进行调整和完善。
第一,以辩方的数据访问权替代阅卷权。我国《刑事诉讼法》第40条规定:“辩护律师自人民检察院对案件审查起诉之日起,可以查阅、摘抄、复制本案的案卷材料。其他辩护人经人民法院、人民检察院许可,也可以查阅、摘抄、复制上述材料。”此即辩护人阅卷权的规定,该规定不但引发了阅卷权之权利主体争议,而且因其将阅卷范围限于“案卷材料”即诉讼文书和证据材料,已经无法应对司法信息化的现实需求,也无法回应人工智能量刑带来的挑战,因此宜以数据访问权代替阅卷权。
所谓数据访问权是指数据主体可以从数据控制者处确认其个人数据是否正被处理,并在此种情形下可以访问个人数据及获得相关信息的权利,赋予辩方此种权利,不但将辩方得以知悉的范围由“案卷材料”扩展至涉案个人数据,从而应对人工智能量刑工具海量收集个人数据而带来的控辩双方在量刑数据运用力量失衡方面的困难,使得辩方在进行辩护时对其被用于量刑的个人数据充分知情。
第二,人工智能量刑工具的算法适度向辩方和法官公开。人工智能技术用于量刑的一大技术障碍即在于算法的不公开,此种不公开既包括不向辩方公开,也包括不向法官公开。
人工智能算法的不公开,主要是基于专利保护、商业秘密等方面的利益考虑,并非毫无道理。然而刑事量刑涉及上文所述的公民生命、自由、财产等更为重要的法益,较之商业利益具有价值位阶上的优先性,因此人工智能量刑工具开发商和运营商完全拒绝向辩方和法官公开其算法,可能导致这些更重要的法益受损。
伦奎斯特大法官曾言:“在我们国家,贯穿政治理论长期历史和宪法发展历程的最难以裁决的案件是存在两种相互冲突的价值的案件,每一价值都应当得到应有的尊重,但它们却相遇在此消彼长的竞争当中。”
那么基于价值平衡的理念,商业利益应当向公民的生命、自由、财产权作适当妥协,将人工智能工具中直接关系到量刑准确性和公正性的关键算法向辩方和法官作出适度公开,使得辩方能够有效准备辩护,也令法官对人工智能工具如何得出量刑建议有充分理解。
当然,此种公开并不要求人工智能量刑工具开发商和运营商彻底放弃其商业利益,否则必然削减其维护和开发此类人工智能量刑工具的动力,对此可以通过各方签署协议的方式,确保算法公开只被用于刑事量刑之目的,从而兼顾开发商和运营商的商业利益。
第三,充分发挥专家辅助人的作用。我国《刑事诉讼法》第197条规定:“公诉人、当事人和辩护人、诉讼代理人可以申请法庭通知有专门知识的人出庭,就鉴定人作出的鉴定意见提出意见。”
法律对专家辅助人制度的规定为其参与人工智能量刑奠定了基础:在我国刑事诉讼定罪程序与量刑程序合一的现实下,专家辅助人出庭提出的意见不但可以针对定罪也可以针对量刑,于是在上文所述的辩方行使数据访问权、人工智能算法适度公开的前提下,能够就人工智能量刑工具在收集数据、算法运行、作出量刑建议等技术方面问题提出专家意见,从而协助法官确保人工智能量刑的科学性。
(四)适当兼顾当事人隐私权和个人信息权
较之于生命、自由、财产,个人隐私和个人信息保护的价值位阶虽然较低,但在信息时代下亦是重要议题,在人工智能量刑的背景下,应当兼顾公民的隐私权和个人信息权,以免受上文所述之负面影响。
一方面,应当从仅肯认隐私权转向隐私权与个人信息权“二元化”保护。传统上刑事司法对隐私权的保护历史较长,如美国在卡茨案后即确立隐私权的主客观双重判断标准。隐私权保护路径的优势在于其不必对原有制度进行大幅修改,例如可以利用刑事诉讼对搜查扣押制度的既有规定实现权利保护。
然而此种隐私权保护路径存在天然缺陷,其着眼点通常在于取证之时刻,对证据及其承载信息的后续使用关注不足,且往往忽视相对人的主观意愿。随着个人信息权从隐私权中独立,发展出隐私权和个人信息权“二元化”保护的模式,这同样适用于刑事司法领域的量刑中。
在人工智能被运用于刑事案件量刑的背景下,对于人工智能收集的用于量刑的数据和信息,不但要经受隐私权保护路径下的取证合法性的考量,还要遵守个人信息保护的一些基本原则。
第一,应当区分一般个人信息和敏感个人信息,对于敏感个人信息,其收集使用应有较一般个人信息更为严格的审批和监管程序。第二,可以适当引入“知情同意”的个人信息使用原则,在使用个人信息时应先向信息主体告知并取得其同意,在其拒绝同意而该个人信息对于量刑公正有重大意义时再考虑依照法定程序强制取得。第三,明确个人信息监管职责,通过信息加密、设置加密授权触发机制、设定泄密报告机制等,确保被收集的个人信息仅用于量刑之目的,保障其运用的安全性。
另一方面,应当肯认当事人的被遗忘权。被遗忘权是信息主体在个人信息不再有合法使用之需时要求删除或停止使用该个人信息的权利,这项权利不但源于刑事司法,在刑事司法中也有适用的空间和必要性。
人工智能量刑必然收集大量个人信息,这些信息在量刑目的完成后是否还有继续存储、使用的必要性,值得研究。在此情形下,应当允许当事人特别是已被定罪量刑的罪犯和被害人主张其被遗忘权,向法院申请删除用于人工智能量刑而收集的个人信息,至于实际是否许可该行使被遗忘权之主张,由法院判断。
法院可以根据立法者设立相关的标准进行审查,例如,对性侵未成年人罪犯一律拒绝其被遗忘权主张,对严重贪贿之职务犯罪罪犯原则上拒绝其被遗忘权主张,对被害人通常许可其被遗忘权主张,也可以赋予法院适度的自由裁量权,由其在个案中根据案件具体情况加以判断。如此一来,人工智能量刑收集大量个人信息后,可以为当事人提供事后救济的路径,从而兼顾量刑公正的目标和个人信息保护的需求。
五、结 语
未来已来,人工智能在刑事案件量刑中的使用已是必然趋势,这是科技运用于刑事司法这一历史潮流下不可对抗的产物,因此对于人工智能量刑应抱持开放而谨慎的态度。
人工智能量刑,核心的问题在于人工智能是否会成为强横的“阿尔法法官”而侵犯法官的审判权,以及其对于当事人的权利是否会造成负面影响。
针对这些问题,通过摆正法律对待人工智能量刑的心态,客观看待其技术现实并明确应然之价值追求,理顺人工智能工具与法官在量刑问题上的角色分配和权限划分,坚决保障当事人特别是被告人在量刑中的正当程序权利,并兼顾其隐私权和个人信息权,可以发挥人工智能工具对法官量刑的辅助作用,并在其中协助实现量刑的公平正义,从而实现科技运用与法治发展的相向而行。
备注:
为适应微信排版及手机阅读需要,原文中所有参考文献从略,请见谅。
原文出处:
郑曦、顾佳浩:《人工智能量刑的制度困境与完善路径》,《阅江学刊》,2021年第1期,第36-45页。
郑曦,顾佳浩.人工智能量刑的制度困境与完善路径[J].阅江学刊,2021(1):36-45.
责任编辑:李海中
微信编辑:邱圣茹
校 对:沈丹、李海中
作者照片:郑曦、顾佳浩提供
文中插图:源自互联网
复 审:来向红
终 审:渠红岩